Tamna strana veštačke inteligencije: Rasna pristrasnost i pogrešna hapšenja 

Docent na Pravnom fakultetu Univerziteta Alberta istražuje mnoge rizike povezane sa tehnologijom prepoznavanja lica.

Vreme Čitanja: 2 min

ai leading to false arrests

Ilustracija: Lenka T.

Dr Gideon Christian, ugledni stručnjak iz oblasti veštačke inteligencije i prava, izdao je ozbiljno upozorenje u saopštenju za medije te institucije. Istakao je da veštačka inteligencija (AI) sa rasnom pristrasnošću nije samo obmanjujuća. Može imati veoma štetne posledice i potencijalno uništi živote ljudi. 

Ključni istraživački projekat dr Christiana, pod nazivom Ublažavanje uticaja na rasu, pol i privatnost AI tehnologije prepoznavanja lica, dobio je značajnu dotaciju od 50.000 US dolara od Programa doprinosa Povereniku za privatnost. Cilj ove inicijative je da istraži rasne probleme u vezi sa tehnologijom prepoznavanja lica zasnovanom na veštačkoj inteligenciji u Kanadi. 

Naglasio je pogrešno uverenje da je tehnologija, za razliku od ljudi, nepristrasna, tvrdeći da “postoji ovaj pogrešan koncept da tehnologija, za razliku od ljudi, nije pristrasna. To nije tačno.” 

Ljudi obojene kože su u opasnosti 

Prema dr Christianu, tehnologija prepoznavanja lica predstavlja značajnu pretnju, posebno za osobe obojene boje kože. Upozorio je da je tehnologija pokazala sposobnost da odražava ljudsku pristrasnost.  

U određenim sistemima prepoznavanja lica postoji stopa tačnosti od preko 99% u prepoznavanju belih muških lica. Međutim, nažalost, kada je reč o prepoznavanju lica osoba boje kože, posebno crnkinja, tehnologija pokazuje najvišu stopu greške, koja iznosi otprilike 35%. 

Posledice ovakvih grešaka mogu biti ozbiljne. Kako je dr Christian ukazao, tehnologija prepoznavanja lica može pogrešno upariti vaše lice sa licem osobe koja možda nije činila krivično delo. Ovo može dovesti do situacije u kojoj se suočavate sa policijom na svom pragu i hapšenjem za krivično delo koje niste počinili. 

Iako su se većina slučajeva pogrešnog identifikovanja često prijavljivali u Sjedinjenim Američkim Državama, dr Christian je upozorio da Kanada nije imuna na takve probleme. Rekao je da istraživači znaju da različite policijske službe u Kanadi koriste ovu tehnologiju. Odsustvo sličnih slučajeva kao u SAD-u može se pripisati tajnom korišćenju ove tehnologije od strane kanadske policije. Prema tome, zapisi možda ne postoje ili nisu javno objavljeni. 

Dr Christian je istakao slučajeve u Kanadi gde je pojedincima, posebno crnkinjama i imigrantima koji su uspešno stekli status izbeglice, ukinut status izbeglice na osnovu tehnologije prepoznavanja lica koja je uparila njihova lica sa licima drugih osoba. To je dovelo do tvrdnji vlade da su podneli zahteve koristeći lažne identitete, iako pripadaju demografskoj grupi koju najviše pogađa visoka stopa greške tehnologije. 

Bez pristrasnosti

Dr Christian je pojasnio da tehnologija sama po sebi nije inherentno pristrasna i pripisao problem podacima koji se koriste za obuku algoritama mašinskog učenja. Naglasio je da tehnologija generiše rezultate na osnovu informacija koje su joj dostavljene. 

Takođe je istakao važnost težnje ka društvu oslobođenom od rasne pristrasnosti i diskriminacije. Rekao je da većina ljudi želi da živi u društvu koje je oslobođeno rasne pristrasnosti i diskriminacije. Ne sme biti situacija u kojima tehnologija veštačke inteligencije suptilno održava rasnu pristrasnost. 

Christian je takođe ukazao da ovaj problem nije potpuno nov. Naprotiv, to je vekovni problem koji se sada manifestuje na nove načine putem tehnologije veštačke inteligencije. Upozorio je da, ako se ne reši, može ugroziti napredak postignut tokom pokreta za građanska prava i uništiti godine teško stečenih dostignuća. 

Prijavi se na WebMind NJUZLETER, čeka te izbor konkretnih priča i uvida.

"Pokušao si. Propao. Nema veze. Pokušaj opet. Propadni bolje."

Prijavi se na novosti.